Роботы утренней зари [ Сборник] - Айзек Азимов
Шрифт:
Интервал:
Закладка:
— Попытайтесь. Например, я знаю, что Дельмар хотел создать модели роботов, которые умели бы наказывать провинившихся детей. Что это означает?
Либиг презрительно поднял брови и сухо ответил:
— Говоря просто, без деталей, это означает, что следует усилить сигнал, управляющий реакцией на контуре…
— Непонятно, — прервал его Бейли.
— В цепом это означает, что должно быть проведено некоторое ослабление Первого Закона роботехники.
— Почему? Ведь ребенка приучают к дисциплине для его же собственного блага в будущем.
— Ах, в будущем!.. — Либиг выпрямился, его глаза блеснули. — Вы думаете, это так просто. Как вы полагаете, много ли найдется людей, согласных претерпеть даже незначительные неудобства для своего блага в будущем, а? — Либиг говорил со страстью. Видимо, тема увлекла его, и он забыл о своем собеседнике. — Знаете ли вы, сколько трудов надо положить на то, чтобы внушить ребенку — то, что вкусно сейчас, означает боль в животе завтра, и наоборот. А вы хотите, чтобы робот осознал это? Задача состоит в том, чтобы научиться противодействовать разрушению позитронного мозга, которое имеет место, если робот причиняет какую-нибудь неприятность или боль человеческому существу. Возможно, при этом придется пожертвовать и другими качествами робота. Мы далеко еще не достигли вершин роботехники. Мы не умеем делать универсальных роботов, снабженных целым набором различных взаимозаменяемых конечностей, могущих выполнять все виды работ — от изготовления ювелирных изделий до поднятия тяжестей. А наши космические корабли! До сих пор ими управляют люди. Мозг робота, находящийся в тисках Трех Законов, не может правильно прореагировать на все возможные неожиданности, которые могут встретиться в космосе или на других обитаемых Мирах.
— Значит, пока вам еще не удалось создать таких роботов? — с интересом спросил Бейли.
— Нет, пока я еще не решил этой проблемы. А если не сумел я, то вряд ли сумеет кто-нибудь другой во Вселенной.
— Доктор Либиг, — начал Бейли, и голос его звучал совершенно ровно, — я должен предупредить вас, что собираюсь серьезно заняться проблемами роботехники. И я попрошу вас оказать мне помощь.
Либиг яростно замотал головой. Нервное подергивание века стало еще заметнее, когда он заговорил.
— Вы должны понять, что изучение роботехники — длительный процесс. А у меня совершенно нет времени.
— И все же вам придется подучить меня. Что касается времени, то целесообразнее, как мне кажется, проводить наши занятия в непосредственной близости друг от друга. Я — землянин, и мне легче понимать и усваивать при личном общении.
— Вкусы землянина меня не касаются. Личные встречи абсолютно исключены. — Вся фигура Либига, даже его голос выражали крайнюю степень нервного напряжения.
— Мне кажется, вы перемените свое мнение после того, как узнаете, о чем именно я хотел бы проконсультироваться у вас.
— Ничто на свете не изменит моего мнения, — упрямо сжимая губы, повторил роботехник.
— Вы так думаете? Так вот что я вам скажу! Я считаю, что в вашей работе по усовершенствованию позитронного мозга Первый Закон роботехники намеренно искажается.
Либиг нервно вскочил.
— О, Великая Галактика! Искажается! Но зачем? Вы просто сумасшедший! — вскричал он.
— Зачем? А вот зачем. Для того, чтобы, — голос детектива звучал несколько торжественно, — для того, чтобы скрыть тот факт, что робот в состоянии совершить убийство.
На лице Либига появилось некое подобие улыбки, похожее на гримасу.
— Не говорите такой чепухи, землянин, — сказал он спокойно, — никогда так не говорите. Потеря доверия к роботам означала бы катастрофу для человечества.
Либиг говорил так, как будто он читал нотацию избалованному ребенку. Но за его внешним спокойствием скрывались ярость и гнев, которые он, очевидно, опасался обрушить на землянина. Помолчав, он добавил:
— Вы знакомы с историей роботехники?
— Немного.
— Знаете ли вы, что развитие роботехники началось с комплекса недоверия? Люди не доверяли роботам, боялись их. Роботехника была чуть ли не подпольной наукой. Затем были разработаны Три Закона роботехники, и постепенно начал исчезать страх перед роботами. Но даже и тогда на вашей планете роботехника не получила должного развития. Первые спейсеры покинули Землю главным образом для того, чтобы получить возможность создать такое общество, где роботы избавят человека от необходимости повседневно трудиться. Но страх перед роботами еще не исчез окончательно в сердцах людей. И этот страх может снова вернуться.
— Поэтому вы, роботехник, пытаетесь скрыть от людей некоторые факты? Например, то что Первый Закон роботы могут понимать по-разному?
— Вы ненормальны, а все ваши рассуждения просто бессмысленны.
— Ну что ж, может быть, мы обсудим все проблемы несколько подробнее при личной встрече?
Худое лицо Либига исказилось.
— Нет, ни за что.
— В таком случае, прощайте, доктор Либиг. Я думаю, что другие спейсеры окажутся сговорчивей и внимательно выслушают меня.
— Стойте, о, Великая Галактика. Подождите, говорю вам! — в волнении воскликнул солярианин.
— Личная встреча, а?
Либиг поднял обе руки кверху, затем беспомощно уронил их. Он полузакрыл глаза, как будто прислушиваясь к чему-то, происходящему в нем.
— Согласны? — настойчиво переспросил землянин. Либиг глубоко вздохнула и покачал головой.
— Не могу, — сдавленно проговорил он, — не могу, делайте, что хотите. — Он закрыл лицо трясущимися руками и отвернулся от Бейли.
С минуту Бейли наблюдал за ним, а потом спокойно промолвил:
— Ну, что ж, в таком случае давайте побеседуем так.
— Хорошо, но извините меня, я вернусь через несколько минут, — прошептал солярианин.
Когда Бейли возвратился в помещение, где он беседовал с Либигом, он увидел по-прежнему пустую комнату и стул, на котором ранее сидел роботехник. Его самого еще не было, однако ждать пришлось недолго. Через несколько мгновений появился Либиг, и фокусировка переместилась на него. Сейчас он выглядел совершенно иначе. Его волосы были гладко причесаны, на нем был другой костюм из красивой переливающейся ткани. «Видимо, великий доктор Либиг сумел взять себя в руки», — подумал Бейли.
— Итак, что вы хотели узнать относительно Первого Закона? — ровным голосом спросил спейсер.
— Нас никто не услышит?
— Нет, я позаботился об этом.
Бейли кивнул.
— Разрешите, я процитирую Первый Закон.
— Едва ли я нуждаюсь в этом.
— Я знаю, но все же мне хотелось бы повторить его. «Робот не смеет делать ничего, что может причинить вред человеческому существу, а также своей пассивностью допустить, чтобы человеку был причинен какой-либо вред».
(adsbygoogle = window.adsbygoogle || []).push({});